Los avances tecnológicos en la forma en que creamos y consumimos medios de comunicación han transformado repetidamente la forma en que se luchan las campañas electorales: las redes sociales, la televisión y la radio fueron revoluciones en su época. Siempre ha habido preocupaciones sobre el impacto que estas nuevas tecnologías tendrían en la democracia: el Milwaukee Journal se preocupó después del primer debate presidencial televisado, en 1960, de que "la campaña presidencial estadounidense nunca volverá a ser la misma". Tal vez tenían razón...
Está claro que 2024 será recordado como un gran año para la democracia, con elecciones en 64 países, así como en la Unión Europea y la última tecnología disruptiva es la IA. Este año estamos viendo un mayor uso de la IA generativa para crear deep fakes, videos que parecen y suenan reales, pero que en realidad han sido creados artificialmente, a menudo para difundir información errónea o desinformación. Los deep fakes son herramientas poderosas y, con la rápida evolución de la tecnología de IA y la expansión del acceso a ellas, existen claros peligros potenciales no solo para la toma de decisiones democrática, sino también para los consumidores y las empresas.
Con eso en mente, yo (un británico) me senté con nuestros expertos internos David Fairman (un australiano y nuestro CIO de APAC) y Shamla Naidoo (una sudafricana estadounidense, y asesora de CXO), para escuchar sus pensamientos sobre los posibles problemas de seguridad impulsados por la tecnología durante estas elecciones globales, lo que estos desarrollos tecnológicos podrían significar para las personas y las empresas. y cómo podemos protegernos como individuos.
Emily: David, danos un patazo, ¿qué son los deep fakes y cómo se están implementando?
David: Los deep fakes son imágenes, videos y audios creados por inteligencia artificial generativa que manipulan la imagen de una persona determinada para que parezca que hace o dice algo que en realidad no hizo. No solo difunden información errónea y mentiras, sino que también son cada vez más fáciles y baratos de hacer. Todo lo que necesita es el software adecuado y los materiales de origen, como imágenes y videos disponibles públicamente de una persona, para informar a la herramienta de IA.
En el caso de los políticos, este material es muy fácil de conseguir, pero cada vez más líderes empresariales, celebridades y, francamente, cualquier persona que use las redes sociales podría ser una víctima de deepfake. Hoy en día, dado que consumimos principalmente medios de comunicación a través de videos cortos de rápida absorción, los deepfakes pueden ser muy convincentes, especialmente para el ojo inexperto. A medida que la tecnología continúa evolucionando, será aún más difícil distinguirlos y decir qué contenido es real y qué no.
Emily: Shamla, ¿cómo los están utilizando los malos actores durante las elecciones?
Shamla: Estamos viendo deep fakes en muchas democracias en el período previo a las elecciones, en particular durante los períodos de campaña a menudo cargados de emociones, y el objetivo final es influir en nuestras decisiones de voto. Todas nuestras decisiones, seamos conscientes de ello o no, están influenciadas por lo que vemos y oímos a diario. Y en una campaña electoral, un contenido deep fake relacionado con un tema clave puede afectar nuestras decisiones sobre a quién votamos y, en última instancia, quién termina en el poder.
Debido a que los deep fakes son baratos y bastante simples de hacer, presentan una gran oportunidad para los malos actores que tienen interés en que una población vote (o no vote) por un candidato en particular.
Emily: ¿Cómo están siendo manejados los deep fakes por las víctimas en el mundo político?
Shamla: Aunque cada vez son más comunes, en la mayoría de las democracias se están manejando caso a caso, vistos fundamentalmente como un tema de gestión de la reputación de los candidatos, porque la desinformación suele ser personal y de naturaleza escandalosa. Esto tal vez minimiza el poder de estas campañas porque cada una se crea con un objetivo más amplio en mente.
Cuanto más prolíficos se vuelvan los deep fakes (y en mi opinión es inevitable que se vuelvan más comunes), más tendremos que educar y poner en marcha sistemas para garantizar que las personas y la Plataforma verifiquen dos veces la información y las fuentes.
Emily: ¿Y en el ámbito empresarial, David, cómo representan los deep fakes una amenaza para las empresas y cómo están gestionando las organizaciones los primeros incidentes que se están informando?
David: Bueno, esta es una amenaza muy nueva para las empresas, pero un desafío que crecerá en importancia. Creo que las empresas tendrán que protegerse contra el uso de deepfakes para hacerse pasar por altos ejecutivos dentro de una empresa. Los ataques de ingeniería social, en los que los delincuentes se hacen pasar por alguien, a menudo una autoridad o una figura de confianza, con el fin de engañar a las personas para que transfieran dinero, otorguen acceso o transfieran información, ya son un peligro. A medida que se desarrolle la tecnología de IA, será aún más difícil diferenciar una llamada real de una de un alto ejecutivo de una falsa, por lo que la posibilidad de que los malos actores engañen a víctimas desprevenidas será mucho mayor.
Emily: Todo esto suena bastante pesimista. Pero esperemos que no sea así. ¿Lo es? Por favor, dime que no es...
Shamla: El hecho de que sea tan difícil saber qué se ha generado con IA y qué no, dificulta que los consumidores individuales sepan qué hacer más allá de proceder con precaución.
Pero, afortunadamente, no todo es tan malo como parece. Estamos empezando a ver que las plataformas de redes sociales etiquetan el contenido que ha sido creado artificialmente para que podamos saber si el contenido es real o no antes de compartirlo o darle 'me gusta'.
Dicho esto, siempre podemos aspirar a hacer más. Creo que tenemos que empezar a ver que los gobiernos dan pasos serios en la aplicación de la legislación sobre IA, de forma similar al enfoque que ha adoptado la Unión Europea con su Ley de Inteligencia Artificial, e introducir requisitos jurídicamente vinculantes que mitiguen los riesgos de la IA. Solo así podremos controlar el uso de la IA en este contexto y los riesgos asociados a él.
Emily: David, ¿y qué hay de los negocios?
David: Como mencioné, una forma particularmente peligrosa de usar deep fakes son los ataques de ingeniería social. Sin embargo, si las empresas se encuentran en situaciones en las que no saben al 100% si han sido atacadas o no, entonces deben establecer un llamado procedimiento de devolución de llamada que permita a los empleados verificar si hay un criminal detrás de un ataque o si la solicitud (en el caso de que una figura de confianza haya solicitado algo en particular) es legítima.
La ventaja de este procedimiento es que no se basa en poder detectar que el audio o el video es falso, solo en la sensación de que el mensaje es inusual o te pide que hagas algo fuera de lo común.
Emily: ¡Ah, todo esto es increíblemente útil! Gracias a ambos por su tiempo y por la valiosa información.
Si bien los deep fakes son solo la última innovación tecnológica que desafía los procesos electorales y la equidad (y potencialmente afecta a las empresas), se sienten diferentes tanto en la velocidad a la que están evolucionando y mejorando, como en la medida en que están ejerciendo una influencia potencialmente significativa en manos de malos actores anónimos. Con las elecciones en todo el mundo en marcha, asegurémonos de verificar de dónde proviene nuestra información y si podemos confiar en ella.
Para obtener más información sobre elecciones, desinformación y seguridad, echa un vistazo a nuestro podcast con Shamla aquí, o dondequiera que escuches tus podcasts.